Gobierno presentará este mes el proyecto de Ley para regular el uso de la inteligencia artificial
La ministra de Ciencia, Aisén Etcheverry, detalló a DF los pormenores de la propuesta, la que plantea un enfoque basado en riesgos vinculado al desarrollo, implementación y uso de sistemas de IA.
- T+
- T-
En septiembre pasado, la ministra de Ciencia, Tecnología, Conocimiento e Innovación (CTCI), Aisén Etcheverry, anunció que ingresarían indicaciones al proyecto de ley de Inteligencia Artificial (IA) presentado por un diputado en abril de 2023, que había recibido críticas de expertos.
No obstante, el Ejecutivo optó por elaborar una propuesta propia, la que propone un enfoque basado en riesgos vinculado al desarrollo, implementación y uso de estos sistemas de IA.
En entrevista con DF, la ministra Etcheverry, adelantó que ingresarán el proyecto de ley durante mayo al Congreso, lo que se traduce en un “tremendo paso para que Chile avance en una regulación así de comprensiva y pensada en generar capacidades al interior del Estado para enfrentar nuevas tecnologías”.
“El Presidente Boric nos encargó poder calibrar la necesidad de innovación con la de protección, pero que también esté presente el factor humano y de cómo nos aseguramos de que todos se beneficien de esta tecnología”.
“El proyecto considera sanciones administrativas que aplicará la futura Agencia de Protección de Datos Personales”.
- ¿Por qué se optó por presentar un nuevo proyecto de ley de IA si ya había uno en el Congreso?
- La IA se ha transformado en un tema prioritario. Vengo llegando de la Organización para la Cooperación y el Desarrollo Económico (OCDE) y tres cuartos de la agenda era IA y cómo la regulamos. Para el Gobierno era importante, dado la prioridad geopolítica, tener un proyecto que fuera del Ejecutivo propiamente tal.
Ahora, esto no ocurre del vacío. Todo el trabajo que se hizo previamente fue recogido y parte de los insumos nos llevaron a poder tener un proyecto de ley y van a ser elementos de la discusión en la tramitación, también.
- ¿Cómo llegaron al texto final? ¿Se socializó con parlamentarios?
- Se llegó con un trabajo bien largo y diverso. De partida, todo lo que se hizo en ambas comisiones del Congreso, las conversaciones que tuvimos con el Consejo Asesor de IA que levantaron varias alertas y recomendaciones, y la agenda internacional a la luz de lo que están haciendo los demás países al alero de la Unesco y OCDE. Además de la conversación intersectorial del Gobierno.
El detalle lo vamos a socializar con los parlamentarios una vez que el proyecto sea ingresado al Congreso. No trae grandes sorpresas porque se ajusta mucho a lo que ha sido la discusión internacional y a los estándares hacia los cuales se están moviendo los países.
- ¿Ha discutido el proyecto con el Presidente Boric?
- Sí, esta es una materia que al Presidente lo motiva muchísimo. Su aproximación es muy de evitar caer en el miedo a la hora de enfrentarnos a estas tecnologías, y de plantearse las posibilidades que nos entrega como país para un mayor desarrollo, innovación y crecimiento económico.
El Presidente nos encargó calibrar la necesidad de innovación con la de protección, pero también considerando el factor humano que tiene que estar presente y cómo nos aseguramos que todos se beneficien de estas tecnologías.
Enfoque
- Se propone un enfoque basado en riesgos. ¿Tiene alguna diferencia con la ley de IA de la Unión Europea (UE)?
- Seguimos muy de cerca el proceso de la UE. Nos entrega un marco bien importante. Usamos una estructura de regulación que es similar a la que tienen los europeos y similar a lo que están pensando los norteamericanos, y eso nos permite que nuestra regulación converse muy bien con los países a los cuales exportamos y desde donde importamos tecnología.
Tiene algunas diferencias relacionadas con el rol que le entregamos a la innovación y al desarrollo de estas tecnologías, y también a lo que creemos que puede ser un potencial de crecimiento económico importante para Chile.
A diferencia de lo que ocurre con la UE, nuestro formato de aproximación no es preventivo, sino que es ex-post. En lugar de exigir que las tecnologías pasen por un proceso de certificación o tengan un análisis antes de entrar a mercado, lo que decimos es ‘clasifíquese usted por riesgo’ y en base a eso hay distintas obligaciones que cumplir y si no las cumple, hay sanciones.
Es una decisión que tiene que ver con la necesidad de entregarle agilidad al mercado (...) Hacerlo ex-post podía significar generar un desincentivo importante a la innovación tecnológica.
- Algunos critican el enfoque en riesgos de la UE y plantean un enfoque en usos...
- El proyecto combina las dos cosas y no son excluyentes. Proponemos un enfoque en una clasificación por riesgo, pero lo que se clasifica no es la tecnología, sino el uso que se le da, que es lo relevante a la hora de clasificar.
Es muy distinto regular un algoritmo o tecnología de IA destinada a influir en tus emociones a una destinada a ayudarte a elegir mejores pantalones en el comercio.
- ¿Cómo regularán el uso de sistemas de IA importados?
- La tecnología no conoce fronteras y, por lo tanto, el proyecto clasifica distintos actores (como importador, distribuidor, proveedor, implementador y operador) y su rol respecto de la tecnología, donde cada uno tiene responsabilidades. Y esa conexión con la regulación tiene que ver con el impacto que esa IA genera en nuestro país.
Ahora, ese marco de actores que son los que están regulados tiene además un conjunto de obligaciones que cumplir dependiendo del riesgo.
- El proyecto prohíbe sistemas de IA de categorización biométrica en tiempo real, pero establece excepciones para usos terapéuticos y de seguridad pública. ¿Cómo funcionará?
- Una de las partes más difíciles de la redacción fue generar un catálogo de sistemas de IA cuyo riesgo es inaceptable, y que tiene que ver con aquellos usos que como sociedad consideramos que superan el límite de lo que consideramos puede o no puede hacerse.
Ahí aparecen estos sistemas de riesgo inaceptable, como los que categorizan a las personas en base a datos sensibles asociados a sus características biométricas. Sin embargo, existen situaciones como un tratamiento terapéutico donde para un médico es muy valioso y se podría usar esta tecnología.
Y cuando son utilizadas por organismos autorizados por ley en la prevención o persecución del delito, evidentemente se pueden usar, porque no queremos sustraer de la policía la posibilidad de utilizar IA.
- Chile suscribió los principios de IA de la Unesco y lo único en que los países no llegaron a acuerdo fue en el uso de IA en defensa. ¿Cómo lo aborda este proyecto?
- El proyecto excluye todas las materias relacionadas con seguridad nacional de su regulación. Tomamos una decisión estratégica importante. Llegar a un proyecto de ley que pudiera abordar los temas de seguridad nacional y de defensa, además de todos los demás usos, es algo que ningún país ha conseguido hasta la fecha.
Institucionalidad
- El proyecto establece un Consejo Asesor Técnico de IA. ¿Cómo operará en la práctica?
- La institucionalidad es otro de los temas que fue largamente discutido y estudiado porque ahí ocurren dos cosas. Uno es que esta es una tecnología que avanza muy rápido y quien más invierte en el desarrollo es el sector privado y, dos, donde el Estado tiene un rol de fiscalización que solo es posible con un conocimiento muy profundo de la tecnología.
Entonces, esa mezcla de cosas es difícil de calibrar y por esto tomamos varias decisiones en materia de institucionalidad. Uno es el Consejo Asesor, donde participan Estado, academia y sector privado, que nos va a permitir tener un sentido muy actualizado de cómo está avanzando la tecnología y de cuáles son los riesgos asociados. Y este tiene la tarea de generar los listados de cuáles usos son de alto riesgo o de riesgo bajo, y tiene la facultad de ayudarnos a entender en detalle qué significa la implementación de algunas de las medidas que propone el proyecto de ley.
Luego está la facultad de fiscalización que se la entregamos a la futura Agencia de Protección de Datos Personales y que será ex-post, es decir, que si ocurre un incidente o si hay una denuncia o reclamo entonces entra la agencia.
- ¿Y qué organismo fiscalizará y aplicará sanciones ante posibles riesgos de sistemas de IA que van más allá del uso de datos?
- Lo verá (la misma) agencia. También fue una decisión bien conversada en la interna si era necesario o no tener otra institucionalidad para IA, y la respuesta fue que no, nos quedamos con la Agencia de Protección de Datos Personales.
- ¿Qué sanciones considera el proyecto?
- Considera sanciones administrativas que son aplicadas por la Agencia de Protección de Datos Personales en un procedimiento regulado por ley y en el que se puede apelar en las Cortes de Apelaciones.
Además de eso, se reconoce la posibilidad de recurrir por daños y perjuicios a través de los tribunales de justicia. Es un esquema bastante similar a lo que tiene el proyecto de Ley de Datos Personales.
- ¿Cómo garantiza el proyecto de ley el desarrollo de IA en Chile sin frenar la innovación?
- Tenemos tres mecanismos para lograrlo. Primero, la decisión de que el análisis de los sistemas de IA sea ex-post. Dos, la incorporación de sandbox o espacios de testeo de regulación que se empezaron a utilizar con las fintech y la idea es que todas las agencias regulatorias que quieran meterse en el mundo de la IA los puedan tener, lo que genera incentivos. Y tercero, que conocemos la importancia de que las startups de base científico-tecnológicas tengan incentivos o prioridades específicas, por ejemplo, que tengan prioridad para ocupar los sandbox.
-¿Cómo van a operar estos espacios controlados de pruebas?
-Estos espacios de testeo o sandbox los tendrán las distintas agencias regulatorias. Por ejemplo, la Agencia de Protección de Datos puede tener uno para temas de privacidad, la Fiscalía Nacional Económica, para temas de libre competencia, el Sernac para temas de consumidor y el Instituto de Salud Pública (ISP), para salud.
Estos espacios serán habilitados por el Estado y el Ministerio de CTCI entregará los lineamientos a las agencias.
Claves de la propuesta del Ejecutivo
- REFERENTES
- Entre sus referentes está la Ley de IA de la Unión Europea, que propone un enfoque basado en riesgos, y la Recomendación sobre Ética de la IA de la Unesco. Además, se basa en la definición de sistemas de IA que propuso la OCDE en 2023.
- INSUMOS
- Política Nacional de IA (2021-2031) -en actualización-; Mesa Técnica de Trabajo en IA impulsada por la Comisión Desafíos del Futuro del Senado, y el trabajo de la Comisión Futuro de la Cámara de Diputados, a raíz del proyecto de ley que ingresó un diputado en abril de 2023 para regular los sistemas de IA.
- ENFOQUE
El proyecto de ley propone un enfoque basado en riesgo y uso de los sistemas de IA. Plantea tres niveles de riesgo para la IA: “inaceptable” (prohibidos), “alto riesgo” y de “riesgo limitado”. - NUEVA INSTITUCIONALIDAD
- Consejo Asesor Técnico de IA, que asesorará el Ministerio de CTCI y estará a cargo de proponer la lista de sistemas de IA de riesgo alto y de riesgo limitado.
- Espacios de prueba contralados o sandbox, donde startups podrán testear sus desarrollos.
- Creación de un departamento de Tecnología e IA al interior de la división de Políticas Públicas del Ministerio de CTCI.
- La futura Agencia de Protección de Datos Personales será la encargada de reportar los incidentes graves de los sistemas de Inteligencia Artificial.